迈向更好的动态图学习:新的模型框架和统一的模型库
©PaperWeekly 原创 · 作者 | 于乐
单位 | 北京航空航天大学
研究方向 | 动态图表示学习
论文链接:
代码链接:
缺乏节点间的关系刻画以及难以建模长时依赖。现有方法独立地学习各节点的表示,而忽略了节点之间的相关性,而这些关联通常对于未来的交互具有提示作用。同时,现有方法遵循 interaction-level 的学习范式,因复杂的模型计算量以及在优化中的梯度问题等而导致无法处理较长的节点交互序列,故难以建模长时依赖关系。 缺乏统一的动态图模型库。大多数动态图表示学习方法重点关注于模型的设计,而模型训练、模型实现和模型评估等并不统一,这大大增加了研究人员的学习与使用成本。虽然已有一些动态图模型库,但它们的研究重点是面向动态网络的 embedding 方法、面向离散时间型动态图的学习方法或是如何在大规模动态图上进行训练的工程化技巧,并非本工作所研究的连续时间型动态图。
新的模型框架和统一的模型库
▲ 图1 DyGFormer模型架构图
经过上述的步骤,可以分别为节点 u 和v得到四个 patches 序列(包括邻居特征、连边特征、时间特征以及邻居共现频率特征)。在将这些序列经过特征维度对齐、特征级联后输入到 Transformer,最终得到 u 和 v 的表征。
2.2 模型库介绍
本工作提出的统一模型库 DyGLib 具有标准的训练流程、易扩展的编码接口和全面的评估策略,总体流程如图 2 所示。
▲ 图2 DyGLib模型库流程图
标准的训练流程。DyGLib 统一了数据格式和数据加载过程,使用相同的流程训练所有模型。标准的训练流程保证了结果的可复现性,帮助用户快速发现模型的关键设计。研究人员只需关注模型架构的设计,而无需考虑其他无关的实现细节。
易扩展的编码接口。DyGLib 基于 PyTorch 为数据集和算法提供可扩展的编码接口,使得用户能根据自身需求添加新的数据集与模型。这大大减少了初学者的使用难度,并使专业人员更方便地验证新想法。目前,DyGLib 整合了来自各个领域的 13 个数据集和 9 种连续时间型动态图表示学习方法。
全面的评估策略。DyGLib 支持动态图学习中常见的动态链接预测(transductive和 inductive)和动态节点分类任务。此外,DyGLib 内置了多种评估策略(random、historical、inductive 负采样策略),使各模型能被更全面地评估,以提供更可信的对比结果。
本工作使用的 13 个数据集的统计信息如表 1 所示。
▲ 表1 数据集统计信息
3.1 与现有模型的性能对比
DyGFormer 在动态链接预测(表2)和动态节点分类任务(表3)上的表现均优于现有模型,这表明了 DyGFormer 在动态图学习任务上的优越性,也揭示了所提出的邻居共现频率编码方法与 patching 技术的有效性。
此外,实验中的某些观察与先前工作的结论有所不同。例如通过设置合适的超参数,某些基准方法的性能会显著提高;在修复了基准方法在模型实现中存在的问题后,其结果会变差。这些现象说明使用统一模型库的必要性,验证了引入 DyGLib 的意义。
▲ 表2 动态链接预测任务实验结果
▲ 表3 动态链接预测任务实验结果
3.2 邻居共现频率编码方法通用性
为验证所提出的邻居共现频率编码方法的通用性,本工作将该编码方法与基于序列学习的动态图模型(TCL 和 GraphMixer)相结合,结果如表 4 所示。实验结果显示当采用邻居共现频率编码时,TCL 和 GraphMixer 通常可以获得更好的结果,验证了该编码方法的有效性和通用性,同时也突出了刻画节点之间关系的重要性。
▲ 表4 现有方法在整合邻居共现频率编码方法后的实验结果
3.3 Patching技术的优势
本节旨在验证 patching 技术的两个优势。
1)保持每个 patch 内的时间局部邻近性来帮助 DyGFormer 更有效地利用较长的序列。各模型在不同输入长度下的表现如图 3 所示。结果显示大多数基准方法在输入变长时性能会下降,说明它们缺乏捕捉长期时间依赖关系的能力。
同时,基准方法在更长序列上会面临昂贵的计算成本。尽管基于记忆网络的方法能以可负担的计算成本处理更长的历史,但由于梯度消失/爆炸等问题,它们无法从更长的历史中获益。DyGFormer 能持续地从更长的序列中取得提升,证明 patching 技术在维持时间局部邻近性和处理更长序列方面的优势。
▲ 图3 在不同输入长度下各模型的表现
2)降低模型的计算复杂度使其能更高效地处理较长的序列。表 5 比较了 DyGFormer 在训练过程中是否使用 patching 技术下的运行时间和内存使用情况。可以观察到,patching 技术能有效降低模型的计算成本,使得 DyGFormer 可以处理更长的历史序列。此外,随着输入序列长度的增加,模型计算成本减少得更加明显。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧